咨询电话:400-889-7783 中文English

 

 

 

 

 

 

联系我们

 

购买咨询

400-889-7783

 

邮箱咨询

andy.liu@xyserver.cn

 

售后邮箱:

fae@xyserver.cn

 

 

 

 

 

 

当今市场上数据中心 GPU 中的精尖之作

 

人工智能训练

 

从语音识别到训练虚拟个人助理和教会自动驾驶汽车自动驾驶,数据科学家们正利用人工智能解决日益复杂的挑战。解决此类问题需要花大量时间密集训练复杂性飞速增长的深度学习模型。

 

 

 

人工智能推理

 

为了利用最相关的信息、服务和产品加强人与人之间的联系,超大规模计算公司已经开始采用人工智能。然而,及时满足用户需求是一项困难的挑战。例如,全球最大的超大规模计算公司最近估计,如果每个用户一天仅花费三分钟时间使用其语音识别服务,他们便需要将数据中心的容量翻倍。

 

我们设计 Tesla V100 就是为了在现有的超大规模服务器机架上提供更高的性能。由于将人工智能作为核心,Tesla V100 GPU 可提供比 CPU 服务器高 30 倍的推理性能。这种吞吐量和效率的大幅提升将使人工智能服务的扩展变成现实。

 

 

高性能计算 (HPC)

 

高性能计算是现代科学的基石。从天气预报到发现药物和发现新能源,研究人员使用大型计算系统来模拟和预测我们的世界。人工智能可让研究人员分析大量数据,在仅凭模拟无法完全预测真实世界的情况下快速获取见解,从而扩展了传统的高性能计算。

 

Tesla V100 的设计能够融合人工智能和高性能计算。它为高性能计算系统提供了一个平台,在用于科学模拟的计算机科学和用于在数据中发现见解的数据科学方面表现优异。通过在一个统一架构内搭配使用 NVIDIA CUDA® 内核和 Tensor 内核,配备 Tesla V100 GPU 的单台服务器可以取代数百台仅配备通用 CPU 的服务器来处理传统的高性能计算和人工智能工作负载。现在,每位研究人员和工程师都可以负担得起使用人工智能超级计算机处理最具挑战性工作的做法。

 

 

 

 

规格

 

 

GPU 架构 NVIDIA Volta ECC保护
NVIDIA Tensor 核心数量 640 互联带宽* 32 GB/秒
NVIDIA CUDA ® 核心数量 5120 系统接口 PCIe Gen3
双精度浮点运算能力 7 TFLOPS 外形尺寸 PCIe全高/全长
单精度浮点运算能力 14 TFLOPS 最大功耗 250 W
Tensor 性能 112 TFLOPS 散热解决方案 被动式
GPU 内存 16 GB HBM2 计算 API CUDA、DirectCompute
OpenCL ™ 、OpenACC
显存带宽 900 GB/秒

 

 

 

 
 

服务器

GPU服务器

云计算

存储服务器

POWER服务器

NVIDIA产品

TESLA

GTX

Jetson

DGX 工作站

人工智能

教育机器人

 

 

 

主板

工作站主板

服务器主板

嵌入式主板

 

北京信维鑫玥科技有限公司

 

咨询电话:400-889-7783

 

ICP:京ICP备17007355号-1